[기자의 눈] ‘챗GPT’가 던져준 숙제
최근 인공지능(AI)이 세계적인 관심을 끌고 있다. 아마 ‘챗GPT’가 보여준 전례 없이 뛰어난 성능 때문일 것이다. 챗GPT는 출시 2달 만에 월 사용자 1억 명을 돌파했다. 이미 의사면허시험(USMLE)과 미네소타 대학 로스쿨의 변호사 시험 합격 기준을 통과하는 등 성능 면에서도 우수한 평가를 받고 있다. 이에 위기를 느낀 세계 최대 검색엔진 업체 구글도 자체 개발한 대화 애플리케이션 ‘바드’를 서둘러 내놨다. 이미 빅 테크 업계는 인공지능을 활용한 서비스 개발에 집중하는 모습이다. 인간의 단순노동을 눈 깜짝할 사이에 뛰어난 생산성으로 대체해 버릴 인공지능 기술은 앞으로 더 다양한 분야에서, 더 많은 일에 관여하게 될 전망이다. 그러나 인간의 호기심은 윤리적 문제를 불러오는 경우가 많다. 인공지능도 그중 하나일 가능성이 있다는 게 전문가들의 진단이다. 따라서 인공지능이 인간의 삶에 기여하는 부분이 많아질수록 통제하는 것도 필요하다는 것이다. 챗GPT를 개발한 오픈AI의 미라 무라티 최고기술책임자(CTO)는 타임스지와 인터뷰에서 “챗GPT는 없는 사실을 지어내는 등 윤리적 문제를 일으킬 수도 있다”며 “AI가 고의로 악용될 시 발생하는 역작용도 우려해야 한다”고 말했다. 실제로 인터넷 커뮤니티 ‘레딧’에선 챗GPT로 하여금 다른 인격을 설정해 정치, 폭력 등 민감한 주제의 글을 생성하도록 만드는 꼼수를 공유하는 것이 유행하기도 했다. 이 밖에도 편향되거나 틀린 정보 공유, 개인정보 수집 여부, AI를 통한 의사 결정시 책임 여부 등 인공지능이 불러올 수많은 문제점에 대해 명확한 가이드라인 마련이 필요한 시점이다. 이를 위해 첫째, AI 활용 범위 확장에 앞서 학습 및 결과 도출 데이터의 공정성을 평가하는 기준이 도입돼야 한다. 현재는 개발 업체들이 AI의 학습 내용과 결과물을 직접 심사하고 판단해 차별 또는 편향된 정보를 차단하는 수준이다. 이는 사기업이 정한 기준으로 규제 범위와 목적이 모호하다는 한계가 있다. 또 많은 테크 기업들이 너도나도 인공지능 개발에 몰두하고 있는 상황에서 각기 다른 공정성 판단 기준을 적용하도록 방치하는 것은 고삐 풀린 말과 다름없다. 따라서 AI의 정보 수집 및 생성에 일관성 있고 명확한 규제 설정이 필요하다. 둘째, 개인정보 무단 수집과 사생활 침해에 대한 보호 수단을 마련해야 한다. 인공지능은 정보 학습을 위해 대규모 온라인 데이터베이스에 퍼져있는 정보 조각들을 수집한다. 이 과정에서 개인이 인터넷에 올린 전화번호, 사진, 생년월일 등 어떠한 형태의 개인 정보도 무단으로 수집돼 데이터 학습에 사용됐을 수 있다는 것이다. 또한 안면 인식 등의 정보를 보안 검증 수단으로 사용하는 곳에선 해당 신체 정보 입력이 강제되는 경우도 생길 수 있다. 최소한 개인의 선택으로 프라이버시를 보호할 수 있는 규제 수단이 있어야 한다. 셋째로 AI의 결정에 누가 책임을 질 것인가에 대해 고민해야 한다. 저작권도 마찬가지다. 서비스 활용에 따른 모든 이득을 AI 개발사에 돌릴 수 없듯이 모든 잘못을 사용자에게 오롯이 전가할 수도 없다. AI의 의사 결정에 따른다면 그 결과에 대한 책임은 사용자와 업체 모두 납득할만한 수준이 되어야 한다. 유럽연합(EU)은 이미 ‘인공지능법(AIA)’을 검토 중으로 올해 EU 의회 심사를 앞두고 있다. 일각에서는 ‘지금 한창 AI가 날개를 달고 발전해야 하는 시기에 규제가 웬 말이냐’라는 볼멘소리도 나온다. 물론 AI와 같은 혁신 기술은 끝없는 확장 잠재력이 있다. 하지만 미래에 우리의 일상을 바꾸게 될 AI는 책임감 있는 방식으로 발전해야 하며, 효과적인 통제를 위해선 정부, 기업, 개인 모두 나서야 한다. 우훈식 / 경제부 기자기자의 눈 숙제 개인정보 무단 인공지능 개발 정보 수집